Informazione di Fisher

In statistica e teoria dell'informazione, l'informazione di Fisher è la varianza dello score (derivata logaritmica) associato a una data funzione di verosimiglianza. L'informazione di Fisher, che prende il nome dal celebre genetista e statistico Ronald Fisher, può essere interpretata come l'ammontare di informazione contenuta da una variabile casuale osservabile , concernente un parametro non osservabile , da cui dipende la distribuzione di probabilità di .

Denotando l'informazione di Fisher con , poiché il valore atteso dello score è nullo, la sua varianza è pari al suo momento del secondo ordine, così che:

dove denota la funzione di verosimiglianza. Una scrittura equivalente è:

ossia meno il valore atteso della derivata seconda della funzione di verosimiglianza rispetto a ; l'informazione di Fisher può dunque essere letta come una misura della curvatura della verosimiglianza in corrispondenza della stima di massima verosimiglianza per . Una verosimiglianza "piatta", con una derivata seconda modesta, comporterà minore informazione, laddove una maggiore curvatura apporterà una maggiore quantità di informazione.


© MMXXIII Rich X Search. We shall prevail. All rights reserved. Rich X Search